科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道X86服务器负载均衡实战之四:多负载均衡应用攻略

负载均衡实战之四:多负载均衡应用攻略

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

在\\\"CDN缓存服务器的负载均衡\\\"一文中,我们详细的介绍了单实例(vrrp_instance)、单虚拟地址(vip)实现负载均衡的方方面面,在这个应用场景中,它最主要的特征就是:主负载均衡器负责转发,而备份负载均衡器则处于等待状态,只有主负载均衡器失效,备份负载均衡器才承担用户请求转发任务。

作者:田逸 来源:IT168 2009年9月29日

关键字: 服务器 负载均衡

  • 评论
  • 分享微博
  • 分享邮件

在本页阅读全文(共3页)

  三、多vrrp_instance负载均衡集群功能测试

  在进行测试之前,需要把lvs客户端、负载均衡器(keepalived)、各真实服务器上的服务都启动,并逐个检验其正确性,具体的检查方法可参照本章前面的内容,不再赘述。

  ● 健康检查功能(故障隔离)测试

  多vrrp_instance健康检查功能(故障隔离)测试的方法与单vrrp_instance相同。因多vrrp_instance所涉及的服务较多(本案3个),因此需要多花些时间逐个测试。如果多vrrp_instance涉及的服务很多,则可采用随机抽样的方式进行测试,通过观察lvs负载均衡器的转发状态(ipvsadm)及lvs负载均衡器的系统日志了解健康检查测试的有效性。

  ● 负载均衡器失败切换

  本案的多vrrp_instance负载均衡环境正常运行后,每个lvs负载均衡器都有MASTER和BACKUP两种状态,每一个lvs负载均衡器都承担转发任务。当我们在每个lvs负载均衡器上执行ipvsadm时,其输出结果正好交错的,即lvs-1上如果有非0输出时,则lvs_2相对应的项为0;反之亦然。表4为某运行环境lvs负载均衡器的输出截取对比。

Lvs_1 ipvsadm输出(部分)

Lvs_2 ipvsadm输出(部分)

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

  -> RemoteAddress:Port       Forward Weight ActiveConn InActConn

TCP  61.128.10.4:9000 wlc persistent 50

  -> 61.128.10.16:9000            Route   200    4607       139      

  -> 61.128.10.17:9000            Route   200    4611       154      

  -> 61.128.10.5:9000             Route   100    2306       65       

  -> 61.128.10.8:9000             Route   100    2307       89

    ………………………………       

TCP  61.128.20.124:http wlc persistent 30

  -> 61.128.20.98:http            Route   100    0          0         

  -> 61.128.20.93:http            Route   100    0          0        

  -> 61.128.20.81:http            Route   100    0          0        

  -> 61.128.20.82:http            Route   100    0          0         

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

  -> RemoteAddress:Port       Forward Weight ActiveConn InActConn

TCP  61.128.10.4:9000 wlc persistent 50

  -> 61.128.10.16:9000            Route   100    0          0        

  -> 61.128.10.17:9000            Route   100    0          0        

  -> 61.128.10.5:9000             Route   100    0          0        

  -> 61.128.10.8:9000             Route   100    0          0

    ……………………………           

TCP  61.128.20.124:http wlc persistent 20

  -> 61.128.20.98:http            Route   100    821        1437     

  -> 61.128.20.93:http            Route   100    823        1562     

  -> 61.128.20.82:http            Route   100    823        1336     

  -> 61.128.20.81:http            Route   100    825        1033 

  表4 多vrrp_instance 负载均衡器转发输出对比(注意观察ActiveConn  InActConn的值)

  现在,我们来停掉lvs_1的keepalived进程,观察lvs_2的系统日志,将会发现vrrp_instance(VI_WEB)从BACKUP状态变成MASTER.于是lvs_2负载均衡器有了两个 MASTER状态;另外lvs_2的ipvsadm的输出字段 "ActiveConn "的值将全部变成非零。同样,当我们启动lvs_1的keepalived进程、关闭lvs_2的keepalived进程,则lvs_1的状态都是MASTER,所有的转发请求都被转移到lvs_1。

  在上述lvs_1和lvs_2手动切换过程中,我们可以通过在客户端浏览器地址栏输入站点名(dns解析域名到lvs的vip),来验证lvs的可用性。自定义服务可以通过在客户端执行 telnet  61.135.93.100 3000 及 telnet  61.135.93.100 4000 来初步验证。

    • 评论
    • 分享微博
    • 分享邮件
    闂傚倷绶¢崣搴ㄥ窗閺囩偐鏋庨柕蹇嬪灪婵ジ鏌曡箛瀣偓鏍綖閿燂拷

    濠电姷顣介埀顒€鍟块埀顒€缍婇幃妯诲緞閹邦剛鐣洪梺闈浥堥弲婊勬叏濠婂牊鍋ㄦい鏍ㄧ〒閹藉啴鏌熼悜鈺傛珚鐎规洘宀稿畷鍫曞煛閸屾粍娈搁梻浣筋嚃閸ㄤ即宕㈤弽顐ュС闁挎稑瀚崰鍡樸亜閵堝懎濮┑鈽嗗亝濠㈡ê螞濡ゅ懏鍋傛繛鍡樻尭鐎氬鏌嶈閸撶喎顕i渚婄矗濞撴埃鍋撻柣娑欐崌閺屾稑鈹戦崨顕呮▊缂備焦顨呴惌鍌炵嵁鎼淬劌鐒垫い鎺戝鐎氬銇勯弽銊ф噥缂佽妫濋弻鐔碱敇瑜嶉悘鑼磼鏉堛劎绠為柡灞芥喘閺佹劙宕熼鐘虫緰闂佽崵濮抽梽宥夊垂閽樺)锝夊礋椤栨稑娈滈梺纭呮硾椤洟鍩€椤掆偓閿曪妇妲愰弮鍫濈闁绘劕寮Δ鍛厸闁割偒鍋勯悘锕傛煕鐎n偆澧紒鍌涘笧閹瑰嫰鎼圭憴鍕靛晥闂備礁鎼€氱兘宕归柆宥呯;鐎广儱顦伴崕宥夋煕閺囥劌澧ù鐘趁湁闁挎繂妫楅埢鏇㈡煃瑜滈崜姘跺蓟閵娧勵偨闁绘劕顕埢鏇㈡倵閿濆倹娅囨い蹇涗憾閺屾洟宕遍鐔奉伓

    重磅专题
    往期文章
    最新文章